Wir haben das Kapitel Integration im letzten Video abgeschlossen und widmen uns jetzt einem
vollkommen anderen Gebiet innerhalb der Analysis, nämlich der Differenziation von Funktionen in
mehreren veränderlichen beziehungsweise mit mehreren Variablen. Bisher ist es ja so,
aus dem letzten Semester haben Sie den Begriff der Differenzierbarkeit einer Funktion kennengelernt
für Funktionen, die aus den reellen Zahlen in die reellen Zahlen abbilden. Wir wollen dieses ganze
Konzept jetzt auf einen höherdimensionalen Raum, den er auch erweitern, sodass der Definitionsbereich
nun mehrere Variablen umfassen kann. Und da wollen wir verstehen, was heißt es eigentlich,
wenn eine Funktion differenzierbar ist, was sind die grundlegenden Definitionen und Begriffe und
wie können wir Differenzierbarkeit für solche Funktionen charakterisieren. Das wird ein sehr
wichtiges Grundlagenkapitel sein für viele weitere aufbauende Vorlesungen, sei es in der Physik oder
im Bereich Data Science. Und da nun spielt es eine entscheidende Rolle in der Numerik oder in der
mathematischen Modellierung, immer dann, wenn sie in höheren Dimensionen rechnen oder aber in der
Optimierung von Extremwertaufgaben. Was wir bisher gesehen haben, waren Funktionen der folgenden Form.
Das heißt, wir haben uns typischerweise angeschaut, eine Funktion f, die aus einer offenen Umgebung u
in die reellen Zahlen abbildet und u war typischerweise im letzten Semester immer eine
Teilmenge der reellen Zahlen. Was wir jetzt in diesen und den nächsten Videos machen werden,
ist, wir werden diese Teilmenge nicht mehr über r betrachten, sondern über r hoch n. Das heißt,
wir haben jetzt Funktionen, die genauso abbilden von u nach r. Jedoch werden wir jetzt sagen,
dass diese Teilmenge u in einem höherdimensionalen Raum liegt. Das heißt, typischerweise betrachten
wir n größer gleich zwei, um wirklich zu verstehen, wie Ableitungen in höherdimensionalen Räumen
aussehen. Und was wir auch noch machen werden, und das wird sozusagen das Ende dieses Kapitels sein,
wir werden das Ganze auch noch auf multivariate Funktionen erweitern. Das sind Funktionen,
deren Funktionswerte selber ganze Vektoren wieder bilden. Das heißt, was wir dann machen werden,
ist, wir bilden ab von einer offenen Teilmenge u jetzt in den r hoch m. Das heißt, das ist wieder
ein mehrdimensionaler Vektorraum und u selber ist auch wieder eine Teilmenge des r hoch n. Das heißt,
wir können jetzt n-dimensionale Vektoren auf m-dimensionale Vektoren abbilden und wollen
verstehen, was bedeutet Ableitung für solche Funktionen. Und auch hier typischerweise n und m
größer gleich zwei, ansonsten wäre es ja wieder trivial. Genau, das ist der Plan für dieses Kapitel
und wir fangen an mit dem schwächsten Ableitungsbegriff, den man in höheren Dimensionen
wählen kann und das ist der der partiellen Differenzierbarkeit. Wir werden später noch
andere Begriffe kennenlernen, die eine stärkere Differenzierbarkeit induzieren, aber wir gehen
jetzt mit der partiellen Differenzierbarkeit. Naja, und die Idee ist es bei der partiellen
Differenzierbarkeit, dass man sich irgendwie die Definition von Ableitung von eindimensionalen
Funktionen, die sie schon kennen, zunutze macht. Das heißt, wir werden hingehen und Funktionen
betrachten in mehreren veränderlichen und diese so einschränken, dass wir nur ein einziges Argument
verändern dürfen. Also die Idee ist es, Funktionen auch hier wieder f von u in die reellen Zahlen
so einzuschränken, dass wir den Begriff der Ableitung, Ableitung im eindimensionalen ausnutzen
können. Man schummelt sich das so ein bisschen zurecht, um einfach bekannte Strukturen wieder
auszunutzen. Wie sieht das Ganze aus? Das können wir mal konkretisieren. Das heißt, wenn wir
eine Funktion haben f, die in n Variablen ist, dann können wir Folgendes machen. Wir können uns
sagen, wir halten alle Argumente fest, bis auf ein gewisses Argument, zum Beispiel das Argument x i,
die i-Te-Koordinaten-Richtung. Und dann definieren wir uns eine Hilfsfunktion, die nennen wir f
Schlange. Die betrachten wir jetzt nur noch in einem Argument. Die geht nämlich jetzt von einer
Teilmenge von R auch wieder nach R, indem wir Folgendes machen. Also f Schlange geht von einer
Teilmenge von R nach R und wir erzeugen f Schlange aus unserer Funktion f in mehreren Veränderlichen
durch folgende Funktionsvorschrift. Wir sagen f Schlange von einer Variablen x i. Das definieren
wir uns einfach als die originale Funktion f, aber wir halten jetzt alle Koordinaten fest,
bis auf die i-Te, die uns dann interessiert. Also x i minus eins. Die werden jetzt festgewählt,
sind nicht mehr veränderlich. Und c ist die einzig freie Variable. Und dann geht es so weiter x i bis
x n. Das ist schon der ganze Trick, denn man sieht, man erhält dann eine eindimensionale Funktion. Und
Presenters
Zugänglich über
Offener Zugang
Dauer
00:38:40 Min
Aufnahmedatum
2021-06-15
Hochgeladen am
2021-06-15 17:08:44
Sprache
de-DE